Selecione o idioma

Portuguese

Down Icon

Selecione o país

Turkey

Down Icon

Como as vozes mais altas da IA ​​passaram de "regular-nos" para "libertar-nos"

Como as vozes mais altas da IA ​​passaram de "regular-nos" para "libertar-nos"
Dois anos depois de Sam Altman ter falado ao Congresso sobre as proteções da IA, ele está de volta a Washington com uma nova mensagem: para vencer a China, invista na OpenAI.
Foto-ilustração: Equipe WIRED; Fotografia: J. David Ake/Getty Images

Em 16 de maio de 2023, Sam Altman compareceu perante uma subcomissão do Judiciário do Senado. O título da audiência foi "Supervisão da IA". A sessão foi um festival de amor, com Altman e os senadores celebrando o que Altman chamou de "momento de imprensa" da IA ​​— e reconhecendo que os EUA precisavam de leis fortes para evitar suas armadilhas. "Acreditamos que a intervenção regulatória dos governos será crucial para mitigar os riscos de modelos cada vez mais poderosos", disse ele. Os legisladores se apegaram a cada palavra de Altman enquanto ele falava com entusiasmo sobre como leis inteligentes poderiam permitir o florescimento da IA ​​— mas apenas dentro de diretrizes firmes que tanto os legisladores quanto os desenvolvedores de IA consideravam vitais naquele momento. Altman falava pela indústria, que compartilhava amplamente sua atitude. O grito de guerra era "Regular-nos!"

Dois anos depois, em 8 de maio deste ano, Altman estava novamente diante de outro grupo de senadores. Os senadores e Altman ainda cantavam a mesma música, mas uma delas foi retirada de uma playlist diferente. Essa audiência foi chamada de "Vencendo a Corrida da IA". Em Washington, D.C., a palavra "supervisão" caiu em desuso, e o discurso sobre IA não é exceção. Em vez de defender que órgãos externos examinem modelos de IA para avaliar riscos, ou que plataformas alertem as pessoas quando estiverem interagindo com IA, o presidente da comissão, Ted Cruz, defendeu um caminho em que o governo não apenas fomentaria a inovação, mas também removeria barreiras como o "excesso de regulamentação". Altman concordou com isso. Sua mensagem não era mais "me regule", mas "invista em mim". Ele disse que o excesso de regulamentação — como as regras adotadas pela União Europeia ou um projeto de lei recentemente vetado na Califórnia — seria "desastroso". "Precisamos de espaço para inovar e agir rapidamente", disse ele. Guardas de segurança podem ser necessárias, afirmou ele, mas precisam envolver “regulamentação sensata que não nos atrase”.

O que aconteceu? Para começar, o momento de pânico logo após todos se assustarem com o ChatGPT passou e ficou claro que o Congresso não agiria rapidamente em relação à IA. Mas o maior acontecimento foi que Donald Trump retomou a Casa Branca e freou o tom sutil e pró-regulamentação do governo Biden. A doutrina de Trump sobre a regulamentação da IA ​​parece suspeitamente próxima à de seu apoiador, Marc Andreessen, que declarou em seu Manifesto do Otimismo Tecnológico que a regulamentação da IA ​​era literalmente uma forma de assassinato porque "qualquer desaceleração da IA ​​custará vidas". O vice-presidente JD Vance tornou essas prioridades explícitas em um encontro internacional realizado em Paris em fevereiro. "Não estou aqui... para falar sobre segurança da IA, que era o título da conferência alguns anos atrás", disse ele. "Acreditamos que a regulamentação excessiva do setor de IA pode matar uma indústria transformadora justamente quando ela está decolando, e faremos todos os esforços para incentivar políticas de IA pró-crescimento." Mais tarde, o governo revelou um Plano de Ação de IA “para melhorar a posição dos Estados Unidos como uma potência em IA e evitar que requisitos desnecessariamente onerosos atrapalhem a inovação do setor privado”.

Dois inimigos surgiram nesse movimento. O primeiro é a União Europeia, que adotou um regime regulatório que exige transparência e responsabilização das principais empresas de IA. A Casa Branca despreza essa abordagem, assim como aqueles que criam negócios de IA nos EUA.

Mas o maior bicho-papão é a China. A perspectiva de a República Popular superar os EUA na "Corrida da IA" é tão impensável que a regulamentação deve ser posta de lado, ou feita com o que Altman e Cruz descreveram como um "toque leve". Parte desse raciocínio vem de uma teoria conhecida como "decolagem dura", que postula que os modelos de IA podem atingir um ponto crítico onde o autoaperfeiçoamento rápido como um raio lança um giro estonteante de supercapacidade, também conhecido como AGI. "Se você chegar lá primeiro, seu covarde, eu não vou conseguir te pegar", diz o ex-CEO do Google Eric Schmidt , com o "você" sendo um concorrente (Schmidt estava falando sobre o status da China como líder em código aberto). Schmidt é uma das vozes mais altas alertando sobre esse possível futuro. Mas a Casa Branca provavelmente está menos interessada na Singularidade do que na competição econômica clássica.

O medo de que a China avance na IA é o principal impulsionador da atual política americana, que se dane a segurança. A linha partidária se opõe até mesmo a estados individuais que tentam preencher o vácuo da inação com suas próprias leis. A versão do megaprojeto de lei que concede incentivos fiscais e corta o Medicaid, recentemente aprovada pela Câmara, incluía uma moratória obrigatória de 10 anos em qualquer legislação estadual sobre IA. Isso é como uma eternidade em termos de progresso da IA. (Especialistas dizem que essa disposição não sobreviverá a alguma oposição no Senado, mas vale ressaltar que quase todos os republicanos na Câmara votaram a favor.)

Não é de se surpreender que o mundo Trump tenha rejeitado a regulamentação e adotado uma postura chauvinista em relação à IA. Mas o que aconteceu com o apetite aparentemente genuíno do setor por regras que garantam que os produtos de IA não se descontrolem? Entrei em contato com várias das principais empresas de IA esta semana e me indicaram blogs publicados e transcrições de discursos e depoimentos públicos, mas nenhum executivo se pronunciou sobre o assunto. (Para ser justo, não lhes dei muito tempo.)

Um exemplo típico desses materiais foi o blog de políticas da OpenAI. Ele pede "liberdade para inovar", o que significa, muito provavelmente, a ausência de leis onerosas; controles rigorosos de exportação; e um pedido oportunista de "liberdade para aprender". Trata-se de um pedido eufemístico para que o Congresso redefina a propriedade intelectual como "uso justo", para que a OpenAI e outras empresas possam treinar seus modelos com materiais protegidos por direitos autorais — sem compensar os criadores. A Microsoft também está pedindo essa bonança. (Aviso: faço parte do conselho da Authors Guild, que está processando a OpenAI e a Microsoft pelo uso de livros protegidos por direitos autorais como materiais de treinamento. As opiniões expressas aqui são minhas.)

O grupo regulador "light-touch" (ou "no-touch") tem um excelente argumento a apresentar: ninguém sabe ao certo como elaborar leis que previnam os piores perigos da IA ​​sem desacelerar o ritmo da inovação. Mas, além de evitar riscos catastróficos, existem muitas outras áreas em que a regulamentação da IA ​​não introduziria obstáculos à pesquisa. Essas incluem a proibição de certos tipos de vigilância por IA, deepfakes e discriminação; informar claramente as pessoas quando elas estão interagindo com robôs; e exigir padrões mais elevados para proteger dados pessoais em sistemas de IA. (Admito que trapaceei ao elaborar essa lista — não usando o ChatGPT, mas me baseando nos tipos de danos à IA que a Câmara dos Representantes não permitiria que os estados regulassem.)

A pressão pública, ou algum exemplo espetacular de uso indevido, pode levar o Congresso a abordar essas questões de IA em algum momento. Mas o que permanece para mim é a reviravolta de dois anos atrás, quando sérias preocupações com riscos catastróficos dominavam as conversas no mundo da IA. A exceção gritante a isso é a Anthropic, que ainda não se moveu de uma postagem de blog no final de outubro — poucos dias antes da eleição presidencial — que não apenas pedia regulamentação eficaz para "reduzir riscos catastróficos", mas praticamente propunha o fim dos tempos se não o fizéssemos logo. "Os governos devem tomar medidas urgentes sobre a política de IA nos próximos dezoito meses", dizia em negrito. "A janela para a prevenção proativa de riscos está se fechando rapidamente."

Neste ambiente, praticamente não há chance de a Anthropic realizar seu desejo. Talvez isso não importe: pode ser que os temores de um apocalipse da IA ​​sejam exagerados. Observe, porém, que os líderes de praticamente todas as grandes empresas de IA preveem que, em poucos anos, alcançaremos a inteligência artificial geral. Quando pressionados, eles também admitirão que controlar a IA, ou mesmo entender como ela funciona, é um trabalho em andamento. No entanto, o foco agora está em acelerar o avanço para uma IA mais poderosa — supostamente para superar a China.

Os chineses deixaram claro que não querem se reportar aos senhores robôs, assim como nós. O principal rival geopolítico dos Estados Unidos também demonstrou interesse em impor padrões de segurança rigorosos. Mas se os Estados Unidos insistirem em ignorar as barreiras e seguir a todo vapor rumo a um futuro que não podem conter, nosso maior concorrente não terá escolha a não ser fazer o mesmo. Que vença a melhor decolagem rápida.

wired

wired

Notícias semelhantes

Todas as notícias
Animated ArrowAnimated ArrowAnimated Arrow